Text copied to clipboard!

Názov

Text copied to clipboard!

Inžinier veľkých dát

Opis

Text copied to clipboard!
Hľadáme skúseného a motivovaného Inžiniera veľkých dát, ktorý sa pripojí k nášmu technologickému tímu a bude zohrávať kľúčovú úlohu pri navrhovaní, vývoji a optimalizácii dátových riešení pre spracovanie veľkých objemov dát. Ako inžinier veľkých dát budete zodpovedný za vytváranie robustných dátových tokov, integráciu rôznych dátových zdrojov a zabezpečenie efektívneho ukladania a spracovania dát v reálnom čase aj dávkovom režime. Vašou úlohou bude spolupracovať s dátovými analytikmi, vedcami a vývojármi softvéru na vývoji dátových platforiem, ktoré podporujú rozhodovanie na základe dát. Budete pracovať s modernými technológiami ako Apache Spark, Hadoop, Kafka, a cloudovými platformami ako AWS, Azure alebo Google Cloud Platform. Vaša práca bude mať priamy vplyv na schopnosť organizácie získavať poznatky z dát a zlepšovať obchodné procesy. Ideálny kandidát má silné technické zručnosti, skúsenosti s programovaním v jazykoch ako Python, Java alebo Scala, a rozumie princípom distribuovaného spracovania dát. Znalosť databázových technológií (SQL aj NoSQL), ako aj skúsenosti s nástrojmi na orchestráciu dátových tokov (napr. Apache Airflow), sú veľkou výhodou. Ak máte vášeň pre prácu s dátami, radi riešite komplexné problémy a chcete pracovať v dynamickom prostredí, kde sa kladie dôraz na inovácie a kvalitu, táto pozícia je pre vás ideálna.

Zodpovednosti

Text copied to clipboard!
  • Navrhovať a implementovať dátové toky pre spracovanie veľkých dát
  • Integrácia rôznych interných a externých dátových zdrojov
  • Optimalizácia výkonu dátových platforiem a pipeline-ov
  • Spolupráca s dátovými analytikmi a vedcami na vývoji analytických riešení
  • Zabezpečenie kvality a konzistencie dát
  • Implementácia bezpečnostných a prístupových politík pre prácu s dátami
  • Monitorovanie a ladenie systémov pre spracovanie dát
  • Dokumentácia architektúry a dátových procesov
  • Podpora pri migrácii dát do cloudových prostredí
  • Zavádzanie najnovších technológií a nástrojov v oblasti big data

Požiadavky

Text copied to clipboard!
  • Vysokoškolské vzdelanie v oblasti informatiky, matematiky alebo príbuzného odboru
  • Skúsenosti s technológiami ako Hadoop, Spark, Kafka
  • Znalosť programovacích jazykov ako Python, Java alebo Scala
  • Skúsenosti s databázami SQL a NoSQL
  • Znalosť cloudových platforiem (AWS, Azure, GCP)
  • Schopnosť pracovať v tíme a komunikovať s rôznymi oddeleniami
  • Analytické myslenie a schopnosť riešiť komplexné problémy
  • Znalosť nástrojov na orchestráciu dátových tokov (napr. Airflow)
  • Záujem o nové technológie a ochota učiť sa
  • Skúsenosti s CI/CD a DevOps výhodou

Potenciálne otázky na pohovor

Text copied to clipboard!
  • Aké technológie ste používali pri spracovaní veľkých dát?
  • Máte skúsenosti s cloudovými platformami? Ktoré preferujete?
  • Ako by ste optimalizovali dátový pipeline pre výkon?
  • Aké typy databáz ste používali a prečo?
  • Ako riešite problémy s kvalitou dát?
  • Aké bezpečnostné opatrenia implementujete pri práci s citlivými dátami?
  • Ako pristupujete k dokumentácii dátových procesov?
  • Aký bol váš najväčší úspech v oblasti big data?
  • Ako by ste vysvetlili výhody Apache Spark oproti Hadoop MapReduce?
  • Ako by ste navrhli architektúru pre real-time spracovanie dát?